분류(classification) 성능 평가

분류 문제는 회귀 분석과 달리 모수에 대한 t-검정, 신뢰 구간(confidence interval) 추정 등이 쉽지 않기 때문에 이를 보완하기 위해 다양한 성능 평가 기준이 필요하다.

Scikit-Learn 에서 지원하는 분류 성능 평가 명령

  • sklearn.metrics 서브 패키지
    • confusion_matrix()
    • classfication_report()
    • accuracy_score(y_true, y_pred)
    • precision_score(y_true, y_pred)
    • recall_score(y_true, y_pred)
    • fbeta_score(y_true, y_pred, beta)
    • f1_score(y_true, y_pred)

분류 결과표 Confusion Matrix

분류 결과표는 타겟의 원래 클래스와 모형이 예측한 클래스가 일치하는지는 갯수로 센 결과이다.

원래 클래스는 행(row)으로 예측한 클래스는 열(column)로 나타낸다.

예측 클래스 0 예측 클래스 1 예측 클래스 2
원 클래스 0 원 클래스가 0, 예측 클래스가 0인 표본의 수 원 클래스가 0, 예측 클래스가 1인 표본의 수 원 클래스가 0, 예측 클래스가 2인 표본의 수
원 클래스 1 원 클래스가 1, 예측 클래스가 0인 표본의 수 원 클래스가 1, 예측 클래스가 1인 표본의 수 원 클래스가 1, 예측 클래스가 2인 표본의 수
원 클래스 2 원 클래스가 2, 예측 클래스가 0인 표본의 수 원 클래스가 2, 예측 클래스가 1인 표본의 수 원 클래스가 2, 예측 클래스가 2인 표본의 수

In [1]:
from sklearn.metrics import confusion_matrix

In [2]:
y_true = [2, 0, 2, 2, 0, 1]
y_pred = [0, 0, 2, 2, 0, 2]
confusion_matrix(y_true, y_pred)


Out[2]:
array([[2, 0, 0],
       [0, 0, 1],
       [1, 0, 2]])

In [3]:
y_true = ["cat", "ant", "cat", "cat", "ant", "bird"]
y_pred = ["ant", "ant", "cat", "cat", "ant", "cat"]
confusion_matrix(y_true, y_pred, labels=["ant", "bird", "cat"])


Out[3]:
array([[2, 0, 0],
       [0, 0, 1],
       [1, 0, 2]])

이진 분류 결과표 Binary Confusion Matrix

클래스가 0과 1 두 종류 밖에 없는 경우에는 일반적으로 클래스 이름을 "Positive"와 "Negative"로 표시한다.

또, 분류 모형의 예측 결과가 맞은 경우, 즉 Positive를 Positive라고 예측하거나 Negative를 Negative라고 예측한 경우에는 "True"라고 하고 예측 결과가 틀린 경우, 즉 Positive를 Negative라고 예측하거나 Negative를 Positive라고 예측한 경우에는 "False"라고 한다.

이 경우의 이진 분류 결과의 명칭과 결과표는 다음과 같다. 이 표는 외우는 것이 좋다.

Positive라고 예측 Negative라고 예측
실제 Positive True Positive False Negative
실제 Negative False Positive True Negative

FDS(Fraud Detection System)의 예

FDS(Fraud Detection System)는 금융 거래, 회계 장부 등에서 잘못된 거래, 사기 거래를 찾아내는 시스템을 말한다. FDS의 예측 결과가 Positive 이면 사기 거래라고 예측한 것이고 Negative 이면 정상 거래라고 예측한 것이다. 이 결과가 사실과 일치하는지 틀리는지에 따라 다음과 같이 말한다.

  • True Positive: 사기를 사기라고 정확하게 예측
  • True Negative: 정상을 정상이라고 정확하게 예측
  • False Positive: 정상을 사기라고 잘못 예측
  • False Negative: 사기를 정상이라고 잘못 예측
사기 거래라고 예측 정상 거래라고 예측
실제로 사기 거래 True Positive False Negative
실제로 정상 거래 False Positive True Negative

평가 스코어

Accuracy 정확도

  • 전체 샘플 중 맞게 출력한 샘플 수의 비율
  • 실제로는 잘 안 쓴다.

    $$\text{accuracy} = \dfrac{TP + TN}{TP + TN + FP + FN}$$

Precision 정밀도

  • 실제로는 정밀도와 재현율을 많이 쓴다.
  • 클래스에 속한다고 출력한 샘플 중 실제로 클래스에 속하는 샘플 수의 비율
  • FDS의 경우, 사기 거래라고 판단한 거래 중 실제 사기 거래의 비율. 유죄율
$$\text{precision} = \dfrac{TP}{TP + FP}$$

Recall 재현율

  • TPR: true positive rate
  • 실제 클래스에 속한 샘플 중에 클래스에 속한다고 출력한 샘플의 수
  • FDS의 경우, 실제 사기 거래 중에서 실제 사기 거래라고 예측한 거래의 비율. 검거율
$$\text{recall} = \dfrac{TP}{TP + FN}$$

Fall-Out

  • FPR: false positive rate
  • 실제 클래스에 속하지 않는 샘플 중에 클래스에 속한다고 출력한 샘플의 수
  • FDS의 경우, 실제 정상 거래 중에서 FDS가 사기 거래라고 예측한 거래의 비율
$$\text{fallout} = \dfrac{FP}{FP + TN}$$

F (beta) score

  • 정밀도(Precision)과 재현율(Recall)의 가중 조화 평균
$$ F_\beta = (1 + \beta^2) \, ({\text{precision} \times \text{recall}}) \, / \, ({\beta^2 \, \text{precision} + \text{recall}}) $$
  • F1 score
    • beta = 1
$$ F_1 = 2 \cdot \text{precision} \cdot \text{recall} \, / \, (\text{precision} + \text{recall}) $$

In [4]:
#F score
from sklearn.metrics import classification_report

In [5]:
y_true = [0, 1, 2, 2, 2]
y_pred = [0, 0, 2, 2, 1]
target_names = ['class 0', 'class 1', 'class 2']
print(classification_report(y_true, y_pred, target_names=target_names))


             precision    recall  f1-score   support

    class 0       0.50      1.00      0.67         1
    class 1       0.00      0.00      0.00         1
    class 2       1.00      0.67      0.80         3

avg / total       0.70      0.60      0.61         5


In [6]:
y_true = ["cat", "ant", "cat", "cat", "ant", "bird"]
y_pred = ["ant", "ant", "cat", "cat", "ant", "cat"]
print(classification_report(y_true, y_pred, target_names=["ant", "bird", "cat"]))


             precision    recall  f1-score   support

        ant       0.67      1.00      0.80         2
       bird       0.00      0.00      0.00         1
        cat       0.67      0.67      0.67         3

avg / total       0.56      0.67      0.60         6

C:\Anaconda3\lib\site-packages\sklearn\metrics\classification.py:1074: UndefinedMetricWarning: Precision and F-score are ill-defined and being set to 0.0 in labels with no predicted samples.
  'precision', 'predicted', average, warn_for)

ROC 커브

ROC(Receiver Operator Characteristic) 커브는 클래스 판별 기준값의 변화에 따른 Fall-out과 Recall의 변화를 시각화한 것이다.

모든 이진 분류 모형은 판별 평면으로부터의 거리에 해당하는 판별 함수(discriminant function)를 가지며 판별 함수 값이 음수이면 0인 클래스, 양수이면 1인 클래스에 해당한다고 판별한다. 즉 0 이 클래스 판별 기준값이 된다. ROC 커브는 이 클래스 판별 기준값이 달라진다면 판별 결과가 어떻게 달라지는지는 표현한 것이다.

Scikit-Learn 의 Classification 클래스는 판별 함수 값을 계산하는 decision_function 메서드를 제공한다. ROC 커브는 이 판별 함수 값을 이용하여 다음과 같이 작성한다.

  1. 모든 표본 데이터에 대해 판별 함수 값을 계산한다.
  2. 계산된 판별 함수 값을 정렬한다.
  3. 만약 0이 아닌 가장 작은 판별 함수값을 클래스 구분 기준값으로 하면 모든 표본은 클래스 1(Positive)이 된다. 이 때의 Fall-out과 Recall을 계산하면 Recall과 Fall-out이 모두 1이된다.
  4. 두번째로 작은 판별 함수값을 클래스 구분 기준값으로 하면 판별 함수 값이 가장 작은 표본 1개를 제외하고 나머지 표본은 클래스 1(Positive)이 된다. 마찬가지로 이 때의 Fall-out과 Recall을 계산하여 기록한다.
  5. 가장 큰 판별 함수값이 클래스 구분 기준값이 될 때까지 이를 반복한다. 이 때는 모든 표본이 클래스 0(Negative)으로 판별되며 Recall과 Fall-out이 모두 0이된다.

일반적으로 클래스 판별 기준이 변화함에 따라 Recall과 Fall-out은 같이 증가하거나 감소한다. Recall이 크고 Fall-out이 작은 모형은 좋은 모형으로 생각할 수 있다.


In [7]:
from sklearn.datasets import make_classification
from sklearn.linear_model import LogisticRegression
X, y = make_classification(n_features=1, n_redundant=0, n_informative=1, n_clusters_per_class=1, random_state=4)
model = LogisticRegression().fit(X, y)

In [8]:
print(confusion_matrix(y, model.predict(X)))


[[47  2]
 [ 3 48]]

In [9]:
print(classification_report(y, model.predict(X)))


             precision    recall  f1-score   support

          0       0.94      0.96      0.95        49
          1       0.96      0.94      0.95        51

avg / total       0.95      0.95      0.95       100


In [10]:
from sklearn.metrics import roc_curve
fpr, tpr, thresholds = roc_curve(y, model.decision_function(X))
#decision_function은 값이 크면 클수록 class 1쪽으로 더 많이 들어간 것이고
#무한대로 간 것은 class0으로 더 많이 들어간 것.

In [12]:
plt.plot(fpr, tpr)
plt.plot([0, 1], [0, 1], 'k--', label="random guess")
#random guess 점선은 무능한 경찰의 기준. 일을 열심히 하면 위에, 아니면 아래의 곡선상의 위치
plt.xlabel('False Positive Rate (Fall-Out)')
plt.ylabel('True Positive Rate (Recall)')
plt.title('Receiver operating characteristic example')
plt.show()



In [14]:
tpr


Out[14]:
array([ 0.01960784,  0.90196078,  0.90196078,  0.94117647,  0.94117647,
        0.96078431,  0.96078431,  0.98039216,  0.98039216,  1.        ,  1.        ])

In [15]:
fpr


Out[15]:
array([ 0.        ,  0.        ,  0.02040816,  0.02040816,  0.04081633,
        0.04081633,  0.12244898,  0.12244898,  0.7755102 ,  0.7755102 ,  1.        ])

Multi-Class 예제


In [17]:
from sklearn.datasets import load_iris
from sklearn.linear_model import LogisticRegression
iris = load_iris()
model = LogisticRegression().fit(iris.data, iris.target)

In [18]:
from sklearn.metrics import roc_curve
fpr0, tpr0, thresholds0 = roc_curve(iris.target, model.decision_function(iris.data)[:, 0], pos_label=0)
fpr1, tpr1, thresholds1 = roc_curve(iris.target, model.decision_function(iris.data)[:, 1], pos_label=1)
fpr2, tpr2, thresholds2 = roc_curve(iris.target, model.decision_function(iris.data)[:, 2], pos_label=2)

In [19]:
fpr0, tpr0, thresholds0


Out[19]:
(array([ 0.  ,  0.  ,  0.  ,  0.  ,  0.67,  0.69,  1.  ]),
 array([ 0.02,  0.66,  0.72,  1.  ,  1.  ,  1.  ,  1.  ]),
 array([  5.59733959,   3.37153515,   3.33294961,   2.24452558,
         -6.84259428,  -6.87415927, -10.71530334]))

thresholds를 줄이면 아래로 늘리면 오른쪽으로


In [20]:
plt.plot(fpr0, tpr0, "r-", label="class 0 ") #빨간선이 가장 좋은선
plt.plot(fpr1, tpr1, "g-", label="class 1")
plt.plot(fpr2, tpr2, "b-", label="class 2")
plt.plot([0, 1], [0, 1], 'k--', label="random guess")
plt.xlim(-0.05, 1.0)
plt.ylim(0, 1.05)
plt.xlabel('False Positive Rate (Fall-Out)')
plt.ylabel('True Positive Rate (Recall)')
plt.title('Receiver operating characteristic example')
plt.legend(loc="lower right")
plt.show()



In [21]:
print(confusion_matrix(iris.target, model.predict(iris.data)))


[[50  0  0]
 [ 0 45  5]
 [ 0  1 49]]

In [23]:
print(classification_report(iris.target, model.predict(iris.data)))


             precision    recall  f1-score   support

          0       1.00      1.00      1.00        50
          1       0.98      0.90      0.94        50
          2       0.91      0.98      0.94        50

avg / total       0.96      0.96      0.96       150


In [24]:
from sklearn.preprocessing import label_binarize
yb0 = label_binarize(iris.target, classes=[0, 1, 2])
yb1 = label_binarize(model.predict(iris.data), classes=[0, 1, 2])

In [25]:
print(yb0[:, 0].sum(), yb1[:, 0].sum())
plt.plot(yb0[:, 0], 'ro-', markersize=10, alpha=0.4, label="actual class 0")
plt.plot(yb1[:, 0], 'bs-', markersize=10, alpha=0.4, label="predicted class 0")
plt.legend()
plt.xlim(0, len(iris.target)-1);
plt.ylim(-0.1, 1.1);


50 50

In [26]:
print(yb0[:, 1].sum(), yb1[:, 1].sum())
plt.plot(yb0[:, 1], 'ro-', markersize=10, alpha=0.6, label="actual class 1")
plt.plot(yb1[:, 1], 'bs-', markersize=10, alpha=0.6, label="predicted class 1")
plt.legend()
plt.xlim(45, 145);
plt.ylim(-0.1, 1.1);


50 46

AUC (Area Under the Curve)

  • AUC는 ROC curve의 면적(밑의 면적)을 뜻한다.
  • 그래서 판단 수치를 볼 수 있음.
  • Fall-Out 대비 Recall 값이 클 수록 AUC가 1에 가까운 값이며 우수한 모형이다.

In [27]:
from sklearn.metrics import auc
auc(fpr0, tpr0), auc(fpr1, tpr1), auc(fpr2, tpr2)


Out[27]:
(1.0, 0.81180000000000008, 0.99740000000000006)

Precision-Recall 커브

Precision-Recall 커브는 ROC를 계산하는 것과 동일한 방법으로 판별 기준값의 변화에 따른 Precision과 Recall 의 변화를 살펴보는 것이다.

판별 기준값이 증가하면 Recall은 무조건적으로 증가(또는 동일)하지만 Precision은 감소할 수 있다.

  • 보통 precision과 accuracy가 있다. 여기에는 속으면 안 되는 부분이 있다.
  • precision 성능이 65%가 나왔을 때, 좋다 안좋다를 말할 수 없다.
  • 90%라고 해도 좋다 안좋다의 평가가 불가능하다. 보통은 많이 얘기한다고 한다.

In [28]:
from sklearn.datasets import make_classification
from sklearn.linear_model import LogisticRegression
X, y = make_classification(n_features=1, n_redundant=0, n_informative=1, n_clusters_per_class=1, weights=[0.9, 0.1], random_state=4)
model = LogisticRegression().fit(X, y)

In [29]:
from sklearn.metrics import precision_recall_curve
pre, rec, thresholds = precision_recall_curve(y, model.decision_function(X))

In [30]:
plt.plot(rec, pre)
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.05])
plt.xlabel('Recall')
plt.ylabel('Precision')
plt.title('Precision-Recall Curve')
plt.show()



In [31]:
y.sum(), len(y)


Out[31]:
(11, 100)

실습


In [2]:
from sklearn.metrics import confusion_matrix
from sklearn.datasets import make_classification
from sklearn.linear_model import LogisticRegression
X, y = make_classification(n_features=1, n_redundant=0, n_informative=1, n_clusters_per_class=1, random_state=4)
model = LogisticRegression().fit(X, y)

In [3]:
from sklearn.metrics import roc_curve
fpr, tpr, thresholds = roc_curve(y, model.decision_function(X))

In [4]:
plt.plot(fpr, tpr)
plt.plot([0, 1], [0, 1], 'k--', label="random guess")
plt.xlabel('False Positive Rate (Fall-Out)')
plt.ylabel('True Positive Rate (Recall)')
plt.title('Receiver operating characteristic example')
plt.show()



In [5]:
print(confusion_matrix(y, model.predict(X)))


[[47  2]
 [ 3 48]]

In [6]:
print(classification_report(y, model.predict(X)))


---------------------------------------------------------------------------
NameError                                 Traceback (most recent call last)
<ipython-input-6-f8ece5b681f1> in <module>()
----> 1 print(classification_report(y, model.predict(X)))

NameError: name 'classification_report' is not defined

In [7]:
tpr


Out[7]:
array([ 0.01960784,  0.90196078,  0.90196078,  0.94117647,  0.94117647,
        0.96078431,  0.96078431,  0.98039216,  0.98039216,  1.        ,  1.        ])

In [8]:
fpr


Out[8]:
array([ 0.        ,  0.        ,  0.02040816,  0.02040816,  0.04081633,
        0.04081633,  0.12244898,  0.12244898,  0.7755102 ,  0.7755102 ,  1.        ])

In [32]:
v = model.decision_function(X)

In [33]:
v


Out[33]:
array([-2.58141413, -1.89541414, -4.46134977, -2.03221517, -1.68400284,
       -3.57280129, -5.59424202, -3.19750285, -3.59621873, -2.12056645,
       -2.76394526, -3.44114406, -3.75303154, -5.64694726, -4.35652761,
       -4.4658031 , -3.55630154,  1.30417215, -2.63532692, -3.1957992 ,
       -5.10562127, -1.50002837,  1.53489327, -4.17104039, -4.46127102,
       -2.64625018, -2.16842088, -5.00245095, -4.31011053, -0.82805156,
       -3.33460192, -5.97128987, -2.93784   , -6.62579697, -4.02508221,
       -3.57770003, -5.08914755, -3.22122315, -3.58330125, -2.53964619,
       -4.78750549,  0.98823603, -3.14270971, -2.63370969, -5.36396961,
       -3.58093393, -4.41070109, -4.88564847, -6.65326011, -2.58306894,
       -3.41464327,  0.696831  , -3.26147526, -4.90199512, -2.45889763,
       -3.991217  , -2.88419606, -3.0971824 , -3.86341188, -3.22122709,
       -5.04078756, -0.99951158, -3.59416936, -3.26565685,  1.50522265,
       -2.62665496, -5.0300788 , -3.43934277, -1.08235771, -3.61752712,
       -3.80709025, -5.17159351, -1.12326085, -2.48396579,  2.60499202,
       -5.34687883, -4.40969324, -3.71072856,  1.98558723, -4.07967267,
       -5.48364512, -2.72630575, -3.89066383, -5.04993464, -4.62717054,
       -3.6535303 , -3.00900326,  0.52258316,  1.63761445, -2.99656666,
       -4.56835674, -0.1213697 , -5.09380209, -0.50759992, -4.85880135,
       -3.10376159, -2.99638831, -2.95522009, -2.85876671, -1.57166781])

In [34]:
plt.plot(v)


Out[34]:
[<matplotlib.lines.Line2D at 0xca7c160>]

In [35]:
v2 = sorted(v)

In [36]:
v2


Out[36]:
[-6.6532601122085611,
 -6.6257969656451268,
 -5.97128986768623,
 -5.646947257190817,
 -5.5942420172113803,
 -5.4836451227073892,
 -5.3639696086565083,
 -5.3468788299310228,
 -5.1715935095694539,
 -5.1056212652223696,
 -5.0938020865630786,
 -5.089147547712658,
 -5.0499346356676584,
 -5.040787555708353,
 -5.0300788011035866,
 -5.0024509485214752,
 -4.9019951160862654,
 -4.8856484678877923,
 -4.8588013460898214,
 -4.7875054934641703,
 -4.6271705411768043,
 -4.5683567440378248,
 -4.4658031044822568,
 -4.4613497716147252,
 -4.4612710151044519,
 -4.4107010859595794,
 -4.4096932414161429,
 -4.3565276149984209,
 -4.3101105257865289,
 -4.1710403922218982,
 -4.0796726697695496,
 -4.0250822076265154,
 -3.991216997432173,
 -3.8906638280452555,
 -3.863411877795067,
 -3.807090250614011,
 -3.7530315396290197,
 -3.7107285550045139,
 -3.6535303039542448,
 -3.617527117001651,
 -3.5962187320492962,
 -3.59416935783808,
 -3.5833012525290151,
 -3.5809339311827966,
 -3.5777000295951229,
 -3.5728012889119078,
 -3.5563015370264797,
 -3.441144063653244,
 -3.4393427717273992,
 -3.414643273947906,
 -3.3346019186255482,
 -3.2656568508395392,
 -3.2614752604950956,
 -3.2212270893110118,
 -3.2212231501504052,
 -3.1975028503116256,
 -3.1957991965811821,
 -3.1427097121404852,
 -3.1037615858311747,
 -3.0971824009776761,
 -3.0090032577937809,
 -2.9965666564262974,
 -2.9963883133146751,
 -2.9552200877453609,
 -2.9378399961420052,
 -2.8841960602335486,
 -2.8587667107744661,
 -2.763945257059889,
 -2.7263057473097696,
 -2.6462501808251013,
 -2.6353269182242709,
 -2.6337096897119849,
 -2.6266549599501743,
 -2.5830689414766965,
 -2.581414125014196,
 -2.5396461856429182,
 -2.4839657926589158,
 -2.458897625634938,
 -2.1684208849199615,
 -2.120566453583876,
 -2.0322151718416781,
 -1.8954141444567227,
 -1.6840028425443396,
 -1.5716678149458152,
 -1.5000283710977613,
 -1.1232608451375565,
 -1.0823577076965747,
 -0.9995115805874526,
 -0.82805155858425539,
 -0.50759992499104034,
 -0.12136970307768991,
 0.52258316436110652,
 0.69683099874321308,
 0.98823603161533025,
 1.3041721534375135,
 1.5052226539451483,
 1.5348932708977132,
 1.6376144476612182,
 1.9855872308553948,
 2.6049920181896598]

In [37]:
plt.plot(v2)


Out[37]:
[<matplotlib.lines.Line2D at 0xcade668>]

In [38]:
v.sort()
plt.plot(v)


Out[38]:
[<matplotlib.lines.Line2D at 0xcb3fcf8>]

In [39]:
v < 0


Out[39]:
array([ True,  True,  True,  True,  True,  True,  True,  True,  True,
        True,  True,  True,  True,  True,  True,  True,  True,  True,
        True,  True,  True,  True,  True,  True,  True,  True,  True,
        True,  True,  True,  True,  True,  True,  True,  True,  True,
        True,  True,  True,  True,  True,  True,  True,  True,  True,
        True,  True,  True,  True,  True,  True,  True,  True,  True,
        True,  True,  True,  True,  True,  True,  True,  True,  True,
        True,  True,  True,  True,  True,  True,  True,  True,  True,
        True,  True,  True,  True,  True,  True,  True,  True,  True,
        True,  True,  True,  True,  True,  True,  True,  True,  True,
        True, False, False, False, False, False, False, False, False, False], dtype=bool)

In [40]:
(v < 0).sum()


Out[40]:
91

In [41]:
idx = (v < 0).sum()
v[idx-1], v[idx]


Out[41]:
(-0.12136970307768991, 0.52258316436110652)

In [42]:
thresholds    # 값이 변하는 변곡점들을 출력한 결과


Out[42]:
array([-4.88564847, -4.85880135, -4.78750549, -4.62717054, -4.56835674,
       -4.4658031 , -4.46134977, -4.46127102, -4.41070109, -4.40969324,
       -4.35652761, -4.31011053, -4.17104039, -4.07967267, -4.02508221,
       -3.991217  , -3.89066383, -3.86341188, -3.80709025, -3.75303154,
       -3.71072856, -3.6535303 , -3.61752712, -3.59621873, -3.59416936,
       -3.58330125, -3.58093393, -3.57770003, -3.57280129, -3.55630154,
       -3.44114406, -3.43934277, -3.41464327, -3.33460192, -3.26565685,
       -3.26147526, -3.22122709, -3.22122315, -3.19750285, -3.1957992 ,
       -3.14270971, -3.10376159, -3.0971824 , -3.00900326, -2.99656666,
       -2.99638831, -2.95522009, -2.93784   , -2.88419606, -2.85876671,
       -2.76394526, -2.72630575, -2.64625018, -2.63532692, -2.63370969,
       -2.62665496, -2.58306894, -2.58141413, -2.53964619, -2.48396579,
       -2.45889763, -2.16842088, -2.12056645, -2.03221517, -1.89541414,
       -1.68400284, -1.57166781, -1.50002837, -1.12326085, -1.08235771,
       -0.99951158, -0.82805156, -0.50759992, -0.1213697 ,  0.52258316,
        0.696831  ,  0.98823603,  1.30417215,  1.50522265,  1.53489327,
        1.63761445,  1.98558723,  2.60499202])

In [43]:
idx = np.sum(thresholds > 0)
idx


Out[43]:
9

In [44]:
thresholds[idx-1], thresholds[idx]


Out[44]:
(-4.4107010859595794, -4.4096932414161429)

In [45]:
tpr[idx-1], tpr[idx]


Out[45]:
(0.98039215686274506, 1.0)

In [46]:
fpr[idx-1], fpr[idx]


Out[46]:
(0.77551020408163263, 0.77551020408163263)

In [47]:
idx = (thresholds > 0).sum()
tpr0 = tpr[idx-1:idx+1].mean()
fpr0 = fpr[idx-1:idx+1].mean()

In [48]:
plt.plot(fpr, tpr)
plt.plot([0, 1], [0, 1], 'k--', label="random guess")
plt.plot(fpr0, tpr0, "ro", ms=15, alpha=0.8)  #알파값??
plt.xlabel('False Positive Rate (Fall-Out)')
plt.ylabel('True Positive Rate (Recall)')
plt.title('Receiver operating characteristic example')
plt.show()



In [49]:
from sklearn.datasets import load_iris
from sklearn.linear_model import LogisticRegression
iris = load_iris()
model = LogisticRegression().fit(iris.data, iris.target)

In [50]:
from sklearn.metrics import roc_curve
fpr0, tpr0, thresholds0 = roc_curve(iris.target, model.decision_function(iris.data)[:, 0], pos_label=0)
fpr1, tpr1, thresholds1 = roc_curve(iris.target, model.decision_function(iris.data)[:, 1], pos_label=1)
fpr2, tpr2, thresholds2 = roc_curve(iris.target, model.decision_function(iris.data)[:, 2], pos_label=2)

In [51]:
fpr0, tpr0, thresholds0


Out[51]:
(array([ 0.  ,  0.  ,  0.  ,  0.  ,  0.67,  0.69,  1.  ]),
 array([ 0.02,  0.66,  0.72,  1.  ,  1.  ,  1.  ,  1.  ]),
 array([  5.59733959,   3.37153515,   3.33294961,   2.24452558,
         -6.84259428,  -6.87415927, -10.71530334]))

In [52]:
idx0 = (thresholds0 > 0).sum()
tpr01 = tpr[idx0-1:idx0+1].mean()
fpr01 = fpr[idx0-1:idx0+1].mean()
idx1 = (thresholds1 > 0).sum()
tpr11 = tpr[idx1-1:idx1+1].mean()
fpr11 = fpr[idx1-1:idx1+1].mean()
idx2 = (thresholds2 > 0).sum()
tpr21 = tpr[idx2-1:idx2+1].mean()
fpr21 = fpr[idx2-1:idx2+1].mean()


C:\Anaconda3\lib\site-packages\numpy\core\_methods.py:59: RuntimeWarning: Mean of empty slice.
  warnings.warn("Mean of empty slice.", RuntimeWarning)

In [53]:
plt.plot(fpr01, tpr01, "ro", ms=12 , alpha=0.8)
plt.plot(fpr11, tpr11, "go", ms=12)
plt.plot(fpr21, tpr21, "bo", ms=12)
plt.plot(fpr0, tpr0, "r-", label="class 0 ")
plt.plot(fpr1, tpr1, "g-", label="class 1")
plt.plot(fpr2, tpr2, "b-", label="class 2")
plt.plot([0, 1], [0, 1], 'k--', label="random guess")
plt.xlim(-0.05, 1.0)
plt.ylim(0, 1.05)
plt.xlabel('False Positive Rate (Fall-Out)')
plt.ylabel('True Positive Rate (Recall)')
plt.title('Receiver operating characteristic example')
plt.legend(loc="lower right")
plt.show()
#이거 방법 다시 강구해보기


class1이냐 아니냐의 문제는 잘 안 풀린 문제다. 녹색선


In [ ]: